A. LE PRIME DEFINIZIONI

Tutto sulle applicazioni lineari (penultimo argomento)


A1. Definizione basilare

Definizione di Applicazione Lineare

Definizione base di applicazione lineare. Esempi.


0. Preambolo

OSS 0.a. (Aree di indagine della matematica) La matematica è una materia che studia principalmente due temi: da un lato lo studio di certi determinate entità matematiche, come le matrici, i vettori, i sistemi lineari e i spazi vettoriali.
Dall'altro lato, la matematica si occupa anche di collegare questi oggetti studiati mediante le funzioni (Funzioni); tra poco studieremo delle funzioni che in oggetto prendono dei spazi vettoriali (Spazi Vettoriali), evidenziando la loro complessità e ricchezza, dovute al fatto che i spazi vettoriali sono sostanzialmente degli insiemi con più restrizioni.

1. Definizione di Applicazione Lineare

Definizione 1 (applicazione lineare da V a V primo).

Siano due K-spazi vettoriali (Definizione 1 (spazio vettoriale sul campo K)).
Chiamo una funzione (Definizione 2 (dominio, codominio e legge)) del tipo
una applicazione lineare se valgono due condizioni:
A1. (Additività) "L'immagine della somma è la somma delle immagini"
A2. (Omogeneità) "L'immagine dello scalamento è lo scalamento dell'immagine"

#Osservazione
OSS 1.1. (Operazioni stesse ma diverse) Notiamo che nelle proprietà A1. e A2. (additività e omogeneità) abbiamo l'associazione tra due operazioni diverse; a sinistra abbiamo la somma (scalamento) definita in , d'altro lato abbiamo una "altra" somma (scalamento) definita in . Per essere più precisi sarebbe preferibile scrivere
e
dove sono definite in e invece in .

2. Esempi di Applicazione Lineari

Esempio 2 (Esempio di applicazione lineare da 2D a 1D).

Sia una funzione dove
Allora per verificare che sia a tutti gli effetti un'applicazione lineare, proviamo l'additività e l'omogeneità di .
In un colpo solo la verifichiamo scrivendo

A2. Applicazioni lineari notevoli

Applicazioni Lineari Notevoli
Applicazioni Lineari Notevoli

Prime applicazioni lineari che verranno date per noti: trasformazione lineare associata ad una matrice, funzione coordinante.


1. Trasformazione lineare associata ad una matrice

Definizione 1 (trasformazione lineare associata alla matrice).

Sia una matrice (Definizione 1 (matrice a coefficienti in )).
Allora la matrice definisce una funzione del tipo
La funzione associa un vettore ad un vettore che vive in ; ricordiamoci che rappresenta la moltiplicazione riga per colonna (Operazioni particolari con matrici > ^eecbc9).

Proposizione 2 ( è un'applicazione lineare).

Per ogni matrice la funzione precedentemente definita è una applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)).

#Dimostrazione
DIMOSTRAZIONE della proposizione 1.1.
Siano . Allora sfruttando delle proprietà della moltiplicazione riga per colonna (Operazioni particolari con matrici > ^5cf872), otteniamo
Similmente, supponendo , dimostriamo che

Esempio particolare

Esempio 3 (rotazione nel piano di un angolo in senso antiorario).

Sia un angolo e consideriamo la matrice "rotazione"
Allora l'applicazione lineare rappresentato da
rappresenterebbe la rotazione di un angolo in senso antiorario.
Calcoliamo ad esempio
Invece per esercizio si lascia al lettore di calcolare
(vi è dato un suggerimentino nella figura sottostante!)

GRAFICO 1.1. (Situazione grafica)
Pasted image 20231124231735.png

2. Applicazione lineare coordinante

Definizione 4 (funzione coordinante).

Sia un K-spazio vettoriale di dimensione finita (Definizione 1 (dimensione di un spazio vettoriale)), suppongo .
Sia una base (Definizione 1.1. (Base)).
Allora definiamo la funzione che prende le coordinate di un vettore rispetto a in questo modo:
dove, dato un vettore e applicandoci questa funzione ho il vettore che contiene tutte le coordinate di rispetto alla base (Definizione 1.2. (Coordinate di vettore rispetto alla base)).

Infatti questa definizione è ben posta in quanto è base di , pertanto ogni vettore è espressione unica dello della base. Quindi

Proposizione 5 (invertibilità della funzione coordinante).

La funzione è iniettiva in quanto abbiamo che ogni vettore è espressione unica dello della base; si può verificare che è anche suriettiva. Quindi questa applicazione lineare è biiettiva, quindi invertibile (Teorema 24 (condizione necessaria e sufficiente per l'esistenza della funzione inversa )).
Allora si dice che è un isomorfismo di spazi vettoriali.

3. Applicazioni lineari inverse di isomorfismi

Esercizio 6 (inverse degli isomorfismi come spazi vettoriali).

Provare che se è biiettiva, allora è anch'essa un'applicazione lineare. Quindi dimostrare che se una applicazione lineare è isomorfa, allora considerando la sua inversa si conserveranno le stesse proprietà.

#Dimostrazione
DIMOSTRAZIONE dell'esercizio 3.1.

  1. Dimostro la additività di :
    Considero innanzitutto la composizione , che per definizione deve valere
    Allora calcolo per in due modi diversi: nella prima considerandoli "assieme", nell'altra "distinguendo" le immagini.
  2. Dimostro l'omogeneità di :
    I procedimenti sono analoghi.

B. NUCLEO E IMMAGINE

B1. Definizione di Nucleo e Immagine

Definizione di Nucleo e immagine
Definizione di Nucleo e immagine

Definizione di nucleo e immagine di un'applicazione lineare.


1. Nucleo

Definizione 1 (nucleo di un'applicazione lineare).

Sia un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)).
Definiamo il nucleo di come il sottoinsieme definito da
Ovvero "gli elementi del dominio tale che le loro immagini sono il vettore nullo "
Quindi è immediato verificare che .

2. Immagine

Definizione 2 (immagine di un'applicazione lineare).

Sia un'applicazione lineare.
Si definisce invece l'immagine di come il sottoinsieme

Ovvero "gli elementi del codominio che sono associati ad almeno un elemento del dominio".
Allora è immediato verificare che .

B2. Proposizioni su ker, im

Proposizioni su Nucleo e Immagine
Proposizioni su Nucleo e Immagine

Prime proprietà del nucleo e dell'immagine (Definizione di Nucleo e immagine) di un'applicazione lineare: ker, im sottospazi vettoriali di V e V'; f iniettiva allora ker è il più piccolo possibile, f suriettiva allora im è il codominio.


1. Nucleo e immagine come sottospazi vettoriali

Proposizione 1 (nucleo e immagine sono sottospazi vettoriali).

Sia un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)).
Allora è sottospazio vettoriale di ; è sottospazio vettoriale di .

#Dimostrazione
DIMOSTRAZIONE della proposizione 1.1. (Proposizione 1 (nucleo e immagine sono sottospazi vettoriali))
Prima dimostro che è sottospazio vettoriale di verificando le tre proprietà dello sottospazio vettoriale (Definizione 1 (sottospazio vettoriale)).

  1. (elemento nullo appartiene a ker) Considero e vedo che valgono le seguenti:
    Allora .
  2. (chiusura della somma in V) Siano per ipotesi ; allora seguono che
    Pertanto
  3. (chiusura dello scalamento in V) Siano per ipotesi e ; allora segue che
    Allora
    Ora consideriamo l'immagine .
  4. (elemento nullo appartiene all'immagine) Abbiamo appena dimostrato che
    ; pertanto .
  5. (chiusura della somma in V') Siano per ipotesi . Allora valgono che
    Allora segue che
  6. (chiusura dello scalamento in V') Sia per ipotesi e . Allora vale che
    Allora

2. Relazione tra iniettività-suriettività e nucleo-immagine

Proposizione 2 (Proposizione 2.1.).

Sia un'applicazione lineare. Siano e rispettivamente il nucleo e l'immagine di .
Allora valgono che
i. è iniettiva (Definizione 14 (funzione iniettiva)) se e solo se (ovvero il nucleo di è il più piccolo possibile.
ii. è suriettiva (Definizione 12 (funzione suriettiva)) se e solo se (ovvero l'immagine di coincide col codominio ).

#Dimostrazione
DIMOSTRAZIONE della proposizione 2.1. (Proposizione 2 (Proposizione 2.1.))
Dimostriamo la i. della proposizione.

  1. "": Sia iniettiva. Allora .
    Supponendo che per un qualsiasi; però è un sottospazio vettoriale, quindi .
    Allora . Pertanto è l'unico elemento tale che la sua immagine risulta .
  2. "": Sia . Allora consideriamo .
    Allora
    Allora e in quanto è sottospazio vettoriale, allora
    La ii. della proposizione è quasi una tautologia (Tautologia), in quanto abbiamo una specie di "parafrasi" per il concetto della suriettività. Pertanto non è necessaria una dimostrazione formale per questa parte.

B3. Teorema di struttura per le applicazioni lineari

Teorema di struttura per Applicazioni Lineari
Teorema di struttura per Applicazioni Lineari

Enunciato, dimostrazione ed esempio del teorema di struttura per le applicazioni lineari.


1. Enunciato

Ora vediamo come un'applicazione lineare è completamente determinata da dove "finiscono" le basi.

Teorema 1 (di struttura per le applicazioni lineari).

Siano due spazi vettoriali di , finitamente generati (Definizione 1 (dimensione di un spazio vettoriale)).
ATTENZIONE! Ciò non deve necessariamente significare che le loro dimensioni devono coincidere.
Allora prendendo una base del dominio del tipo
Ora siano dei vettori qualsiasi in .
Allora esiste ed è unica un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)) che soddisfa le seguente condizione:

2. Dimostrazione

#Dimostrazione
DIMOSTRAZIONE del teorema 1.1. (Teorema 1 (di struttura per le applicazioni lineari))
Per questa dimostrazione usiamo una tecnica particolare: questa consiste prima nel supporre l'esistenza di tale funzione, di dimostrarne l'unicità, ottenendo alla fine così degli "indizi" per costruire la funzione supposta.
Sia ; per ipotesi è una base (Definizione 1.1. (Base)) di , quindi per definizione abbiamo che . Allora si scrive in maniera unica (Teorema 1.1. (Caratterizzazione delle basi)) che
Allora
Per le proprietà di sappiamo che
Per ipotesi abbiamo supposto che ; pertanto
Quindi l'immagine di è univocamente determinata dalle proprietà supposte vere per .
Pertanto sappiamo che se questa esiste, allora questa è unica.
Ora "troviamo" l'applicazione lineare , che in realtà è già stata trovata: quindi usiamo l'"indizio" lasciato sopra definendo nel modo seguente e dimostrando che questa è effettivamente un'applicazione lineare e soddisfa la condizione imposta nell'enunciato.

  1. (l'immagine di coincide con ) Qui basta imporre ; allora
  2. ( è additiva) Siano . Allora voglio dimostrare .
    Dato che è base di , allora sono espressioni uniche di elementi della base come combinazione lineare.
    Allora
    Ora calcoliamo e separatamente
    Invece calcoliamo e scopriamo che
  3. ( è omogenea) Analogamente si dimostra che è omogenea. Si lascia di dimostrare questo al lettore per esercizio.

3. Conseguenza

OSS 3.1. (Le immagini di un sistema di generatore sono un sistema di generatori per l'immagine di ) Consideriamo un'applicazione lineare tra spazi vettoriali finitamente generati.
Sia una base di : allora se considero le loro immagini allora vedo che questi sono un sistema di generatori per (Definizione 2 (immagine di un'applicazione lineare)).
Infatti se allora
Quindi, dato che è base di , possiamo scrivere
Per il teorema appena enunciato e dimostrato sappiamo che ; allora
Allora
Inoltre notiamo che abbiamo solo usato il fatto che è un sistema di generatori per .

Corollario 2 (Corollario 3.1. (relazione tra l'immagine e lo span degli immagini di una applicazione lineare)).

Sia una applicazione lineare.
Sia una base di ; siano elementi di .
Sia inoltre .
Allora

4. Esempio

Esempio 3 (esempio su su base canonica ).

Considero in la sua base standard , dove
Ora considero due elementi qualsiasi in
Per il teorema di struttura di applicazioni lineare, sappiamo che esiste ed è unica un'applicazione lineare tale che
Ora ci chiediamo il seguente: chi è l'immagine attraverso di un generico elemento
Per farlo scrivo questo generico vettore esprimendolo in termini di ; ovvero
Per il teorema di struttura,

Esempio 4 (quando non può esistere la funzione).

Osserviamo che invece non può esistere un'applicazione lineare tale che
In quanto questi tre elementi non sono linearmente indipendenti, quindi non formano una base per .


C. TEOREMA DI DIMENSIONE

C1. Definizione di Rango per Applicazione Lineare

Definizione di Rango per Applicazione Lineare
Definizione di Rango per Applicazione Lineare

Definizione di rango per un'applicazione lineare.


0. Osservazione preliminare

OSS 0.a. (Osservazione sulla trasformazione lineare ) Consideriamo una matrice e la trasformazione lineare associata alla matrice , (Definizione 1 (trasformazione lineare associata alla matrice)).
Se in prendiamo la base standard , dove
Calcolando , per la definizione di righe per colonne (Operazioni particolari con matrici > ^eecbc9) notiamo che otterremo proprio la sua colonna. Allora
Per l'osservazione effettuata in Teorema di struttura per Applicazioni Lineari (Corollario 2 (Corollario 3.1. (relazione tra l'immagine e lo span degli immagini di una applicazione lineare))), sappiamo che
Pertanto prendendo la dimensione (Definizione 1 (dimensione di un spazio vettoriale)) dell'applicazione lineare si otterrebbe
che è esattamente la definizione del rango (Definizione 2 (rango)) della matrice .

1. Definizione di Rango per un'applicazione lineare

Definizione 1 (rango di un'applicazione lineare).

Sia un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)) tra spazi vettoriali di dimensione finita.
Allora definiamo il rango di come

OSS 1.1. Data l'osservazione precedente, il rango di un'applicazione lineare è una generalizzazione del rango di una matrice.

C2. Teorema di Dimensione per le Applicazioni Lineari

Teorema di dimensione per le Applicazioni Lineari
Teorema di dimensione per le Applicazioni Lineari

Teorema di dimensione per le applicazioni lineari: enunciato, dimostrazione ed esempi.


1. Enunciato

Teorema 1 (di dimensione per le applicazioni lineari).

Sia un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)) tra due spazi vettoriali di dimensione finita.
Allora vale che
Alternativamente, usando la definizione di rango (Definizione 2 (rango)) per un'applicazione lineare si può scriverla come

2. Dimostrazione

#Dimostrazione
DIMOSTRAZIONE del teorema di dimensione per le applicazioni lineari (Teorema 1 (di dimensione per le applicazioni lineari))
Fissiamo la dimensione di .
Fissiamo ora una base di ; sia dunque .
Allora . Ora per costruzione sappiamo che sono linearmente indipendenti, dunque per il teorema di estensione (Teorema 2.1. (Teorema del completamento/estensione)) possiamo "estendere" la base del nucleo di ad essere una base di . Ovvero
Se riusciamo a dimostrare che la base di è la parte con cui abbiamo "estesa" la base di , allora abbiamo dimostrato il teorema in quanto si avrebbe
Allora dimostriamo che
Ovvero che tali elementi sono linearmente indipendenti e sistemi di generatori per

  • Linearmente indipendenti
    Supponiamo che esista una loro combinazione lineare nulla:
    Dato che è una applicazione lineare, possiamo manipolarla da formare
    Pertanto . Quindi
    In quanto è base per (ovvero un elemento qualsiasi di è esprimibile in forma di combinazione lineare degli elementi della base).
    Allora otteniamo la combinazione lineare nulla di
    che sappiamo essere unica in quanto è base di , dunque linearmente indipendente.
    Quindi l'unica possibilità è che tutti i coefficienti e siano uguali a .
    Dunque abbiamo dimostrato che sono linearmente indipendenti
  • Sistema di generatori per :
    Dall'osservazione sul teorema di struttura delle applicazioni lineari (Teorema di struttura per Applicazioni Lineari > ^8fd96a) abbiamo visto che le immagini di elementi di basi per formano un sistema di generatori per ; dunque è un sistema di generatori per .
    D'altro canto abbiamo appena visto che , allora per definizione sono sicuramente tutti nulli.
    Allora "rimangono" solo gli elementi da esimo.
    Formalizzando il linguaggio, abbiamo
    Ricostruendo tutto da capo, abbiamo

3. Esempi

Esempio 2 (esempio di una trasformazione 3D a 4D).

Supponiamo un'applicazione lineare.
Allora sicuramente sappiamo che non potrà essere suriettiva: infatti per il teorema appena enunciato e dimostrato, sappiamo che
Quindi
Allora sappiamo che gli elementi delle immagini saranno al massimo di dimensione , mentre la dimensione di .

C3. Conseguenze del teorema di dimensione delle Applicazioni Lineari

Conseguenze del teorema di dimensione delle Applicazioni Lineari
Conseguenze del teorema di dimensione delle Applicazioni Lineari

1. Teorema della dimensione delle soluzioni per i sistemi lineari omogenei

OSS 1.1. (Il vuoto colmato) Ora possiamo finalmente "colmare" un vuoto che avevamo lasciato nel capitolo sui sistemi lineari, in particolare sul teorema di dimensione delle soluzioni per i sistemi lineari omogenei. (Teorema di dimensione delle soluzioni di sistemi lineari).


RICHIAMO al teorema di dimensione delle soluzioni di sistemi lineari

Teorema 1 (teorema di dimensione delle soluzioni di sistemi lineari).

Sia ;
sia l'insieme delle soluzioni del sistema lineare omogeneo associato ad (Definizione 5 (sistema omogeneo)) con , , ovvero
Allora


Sia dunque e consideriamo il sistema lineare omogeneo
Allora possiamo interpretare l'insieme delle sue soluzioni in termini di applicazioni lineari, prendendo la trasformazione lineare associata alla matrice (Definizione 1 (trasformazione lineare associata alla matrice)).
Ovvero

Corollario 1 (Corollario 1.1. (teorema di dimensione delle soluzioni di un sistema lineare omogeneo)).

Sia , allora la dimensione dello sottospazio vettoriale delle soluzioni del sistema lineare omogeneo associato è uguale a

2. Suriettività e iniettività in termini di dimensioni

Corollario 2 (di caratterizzazione per applicazioni lineari iniettive e suriettive).

Sia un'applicazione lineare ta spazi vettoriali di dimensione finita.
Supponiamo che essi hanno la stessa dimensione;
Allora è iniettiva se e solo se è suriettiva, ovvero, compattando la scrittura, si ha

#Dimostrazione
DIMOSTRAZIONE del corollario 2.1. (Corollario 2 (di caratterizzazione per applicazioni lineari iniettive e suriettive))
"": Sia iniettiva; allora per il la proposizione 2.1. sul nucleo e l'immagine di un'applicazione lineare (Proposizione 2 (Proposizione 2.1.)), si ha .
Allora, per il teorema di dimensione (Teorema 1 (di dimensione per le applicazioni lineari)) si ha
Pertanto ; dato che , ma e hanno la stessa dimensione, si ha che e dunque è suriettiva.
"": Sia suriettiva, allora ; ovvero allora per il teorema di dimensione,
Ovvero è iniettiva.

Corollario 3 (invertibilità di un'applicazione lineare iniettiva o suriettiva).

Sia , con . Allora


D. MATRICI ASSOCIATE ALLE APPLICAZIONI LINEARI

D1. Definizione di matrice associata

Definizione della Matrice associata a un'Applicazione Lineare
Definizione della Matrice associata a un'Applicazione Lineare

Definizione della matrice associata ad un'applicazione lineare rispetto alle basi del dominio e del codominio, esempi.


1. Definizione

Definizione 1 (matrice associata a f rispetto alle basi B, C).

Sia un'applicazione lineare (Definizione 1 (applicazione lineare da V a V primo)) tra spazi vettoriali (Definizione 1 (spazio vettoriale sul campo K)) di dimensione finita (Definizione 1 (dimensione di un spazio vettoriale)).
Siano rispettivamente le basi (Definizione 1.1. (Base)) di
Definiamo quindi la matrice associata ad rispetto alle basi e , come la matrice (Definizione 1 (matrice a coefficienti in )) in denotata con
e ottenuta nella maniera seguente.
Per ogni vettore di scriviamo come la combinazione lineare di ; le coordinate (Definizione 1.2. (Coordinate di vettore rispetto alla base)) rispetto agli elementi di formeranno la colonna -esima della matrice
In altre parole,

2. Esempi

Esempio 2 (su ).

Considero la trasformazione lineare
Considero la base standard formata dagli elementi e come le basi del dominio e del codominio.
Allora vogliamo costruire la matrice associata all'applicazione lineare
Per farlo calcoliamo e , li esprimiamo come combinazioni lineari di per prendere le loro coordinate, al fine calcolare le colonne della matrice associata.
Si lascia di svolgere il procedimento meccanico al lettore per esercizio.

Esempio 3 (applicazione nulla).

Considero l'applicazione nulla, ovvero del tipo
Allora per qualsiasi scelta delle basi del dominio e del codominio , la matrice associata ad sarà sempre nulla, in quanto i vettori di sono linearmente indipendenti (Definizione 4 (vettori linearmente indipendenti)) in quanto basi.

Esempio 4 (applicazione identità).

Consideriamo l'applicazione identità, ovvero del tipo
Sia quindi basi sia del dominio che del codominio; pertanto .
Per l'osservazione precedente si nota che
Allora, svolgendo i calcoli necessari, la associata all'applicazione identità rispetto alle stesse basi del dominio e del codominio è la matrice identità 𝟙.
𝟙

D2. Prime proprietà sulle matrici associate

Prime Proprietà sulle Matrici associate a un'Applicazione Lineare
Prime Proprietà sulle Matrici associate a un'Applicazione Lineare

Prime proprietà sulle matrici associate ad un'applicazione lineare.


1. Prime proprietà sulle matrici associate

Proposizione 1 (prime proprietà sulle matrici associate).

Siano due applicazioni lineari (Definizione 1 (applicazione lineare da V a V primo)) con , rispettivamente le basi di .
Supponiamo inoltre che ci sia anche , con base di . Sia poi uno scalare.
Sia una matrice associata all'applicazione lineare (Definizione 1 (matrice associata a f rispetto alle basi B, C)).
Allora valgono le seguenti sei proprietà:
𝟙

#Dimostrazione
DIMOSTRAZIONE delle prime proprietà sulle matrici associate (Proposizione 1 (prime proprietà sulle matrici associate))
Dimostrazioni omesse in quanto per verificarle basta usare definizioni delle applicazioni lineari, matrici associate ed eventualmente usare delle loro proprietà. Alternativamente, si può avvalere dei diagrammi commutativi.

D3. Teoremi sulle matrici associate

Teoremi sulle Matrici associate a un'Applicazione Lineare
Teoremi sulle Matrici associate a un'Applicazione Lineare

Due risultati importanti derivanti dalla definizione della matrice associata ad un'applicazione lineare.


1. Primo risultato relativo alle coordinate

Teorema 1 (relazione tra le coordinate rispetto alle basi).

Sia un'applicazione lineare tra spazi vettoriali di dimensione finita (Definizione 1 (applicazione lineare da V a V primo), Definizione 5 (vettore), Definizione 1 (dimensione di un spazio vettoriale)).
Siano rispettivamente basi di (Definizione 1.1. (Base)). In particolare sia
Fissiamo un vettore di ;
Supponiamo che ci sia il vettore-colonna in sia il vettore che rappresenta le coordinate di rispetto a ;
Allora le coordinate di rispetto a sono date da

#Dimostrazione
DIMOSTRAZIONE del teorema 1.1.
La dimostrazione è omessa in quanto è "semplice" visto che basta scrivere le definizioni e compiere dei calcoli. Quindi la dimostrazione è lasciata da svolgere al lettore.
Consiglio: definire in un certo modo e usare un "trick" in cui si sfrutta il fatto che soddisfa le proprietà delle applicazioni lineari.

Osservazione 2 (interpretazione grafica).

Come "interpretazione grafica" di questo teorema possiamo avvalerci dell'esempio 2.2. sui diagrammi commutativi (Esempio 4 (interpretazione grafica di un teorema)).

2. Secondo risultato relativo alla composizione

Teorema 3 (matrice associata della composizione delle applicazioni lineari).

Siano , due applicazioni lineari tra spazi vettoriali di dimensione finita.
Siano rispettivamente le basi di .
Allora possiamo considerare la composizione e vale che

TRUCCHETTO MNEMONICO. Come trucchetto mnemonico si potrebbe visualizzare che le lettere si "cancellano".

#Dimostrazione
DIMOSTRAZIONE del teorema 2.1.
Anche qui la dimostrazione è stata omessa in quanto bisogna solo usare le definizioni.

Caso applicazioni identità

Corollario 4 (Corollario 2.1.).

Sia un K-spazio vettoriale di dimensione finita, siano basi di . Sia l'applicazione lineare identità.
Allora
𝟙Quindi vediamo che la matrice è l'inversa di .

D4. Matrice simile

Definizione di Matrice Simile
Definizione di Matrice Simile

Definizione di due matrici simili.


1. Definizione di Matrici Simili

Definizione 1 (matrici simili).

Siano due matrici quadrate (Definizione 6 (matrice quadrata di ordine )).
si dicono simili se esiste una matrice invertibile tale che valga

D5. Matrice del cambiamento di base

Matrice del cambiamento di Base
Matrice del cambiamento di Base

Matrice del cambiamento di Base: osservazioni preliminari, l'utilità e riassunto (definizione generale)


1. Prima Osservazione: sulle prime proprietà delle matrici associate

Osservazione 1 (sulle prime proprietà delle matrici associate).

Facciamo delle considerazioni sulle Prime Proprietà sulle Matrici associate a un'Applicazione Lineare e sui Teoremi sulle Matrici associate a un'Applicazione Lineare.
Consideriamo con . Per il corollario 2.2. sulle applicazioni lineari si ha che è un isomorfismo (ovvero biettiva, pertanto invertibile) (Corollario 3 (invertibilità di un'applicazione lineare iniettiva o suriettiva)).
Allora è anch'essa applicazione lineare e supponendo che sia una base di , abbiamo il seguente:
𝟙Da ciò ricaviamo in particolare che la matrice è invertibile e la sua inversa è esattamente .
Ovviamente questo presuppone che in primis la matrice sia invertibile.
Ricordiamo inoltre il teorema 1.1. sulle matrici associate (Teorema 1 (relazione tra le coordinate rispetto alle basi)): ovvero che prendendo un'altra base di , possiamo trovare le coordinate di rispetto a col seguente calcolo:
Istanziamo dunque questo risultato per .
con basi di .
Allora prendendo un qualunque vettore con le coordinate rispetto a come , allora le coordinate dello stesso vettore rispetto a verranno calcolate nel modo sopra indicato.
Pertanto possiamo considerare la matrice
come la matrice del cambiamento di base.

2. Detour: l'utilità di questa idea

DETOUR. Ora è naturale chiedersi a cosa serva quest'osservazione: naturalmente, come ci suggerisce la denominazione, una matrice del cambiamento di base serve per cambiare la base di un spazio vettoriale e trovare le coordinate dell'immagine della "base cambiata" in funzione della "base cambiata" stessa.
Infatti, codifichiamo certi problemi con applicazioni lineari: dunque scegliendo una base qualsiasi per lo spazio vettoriale abbiamo coordinate diverse. Vogliamo svolgere certi calcoli con queste coordinate, però avvolte questi calcoli possono diventare complicati: dunque, avendo coordinate diverse (ovvero cambiando basi) possiamo "semplificare" il problema.
Questo sarà infatti il problema della diagonalizzazione (Considerazioni Preliminari sulla Diagonalizzazione).

3. Proposizione: Risultato finale

Allora da tutti questi risultati appena derivati, possiamo enunciare la seguente proposizione.

Proposizione 2 (calcolo di una nuova matrice associata con basi cambiate).

Sia un'applicazione lineare tra spazi vettoriali di dimensione finita.
Siano le basi "originarie" di .
Siano poi le "nuove basi" di .
Allora abbiamo il seguente:
Pertanto, se conosciamo la matrice allora possiamo ottenere la "nuova matrice" moltiplicando a destra e a sinistra la "matrice conosciuta" per le due matrici di cambiamento di base.

Osservazione 3 (idea grafica).

Graficamente abbiamo una specie di "semplificazione" delle basi:
Ovviamente questo serve solamente come un trucco mnemonico, non una dimostrazione rigorosa.

Corollario 4 (caso particolare del calcolo della nuova matrice associata).

In particolare se prendiamo , con la "base originaria" e la "nuova base" con cui facciamo il cambiamento di base, allora vale che

#Dimostrazione
DIMOSTRAZIONE della proposizione 3.1..
Omessa in quanto basta considerare che e il teorema 2.1. sulle matrici associate (Teorema 3 (matrice associata della composizione delle applicazioni lineari)).

Osservazione 5 (origine della nozione di matrice simile).

Notiamo che la nozione di matrice simile discende proprio da queste considerazioni: infatti considerando come la matrice del cambiamento di base
Pertanto la sua inversa è
Allora l'uguaglianza del corollario 3.1. può essere scritta come
che è proprio la nozione di matrice simile (Definizione 1 (matrici simili)).
Infatti e sono simili.


E. LO SPAZIO DELLE APPLICAZIONI LINEARI

E1. L'insieme delle applicazioni lineari

L'insieme delle Applicazioni Lineari
L'insieme delle Applicazioni Lineari

Cenno all'insieme delle applicazioni lineari: definizione e teorema della funzione matrice associata ad un'applicazione lineare.


1. Definizione dell'insieme

Definizione 1 (l'insieme delle applicazioni lineari dal dominio al codominio ).

Siano dei K-spazi vettoriali (Definizione 1 (spazio vettoriale sul campo K)) di dimensione finita (Definizione 1 (dimensione di un spazio vettoriale));
Allora definiamo l'insieme delle applicazioni lineari da in come l'insieme

Proposizione 2 ( diventa un spazio vettoriale).

Abbiamo che definendo la somma tra applicazioni lineari in maniera "puntuale" e analogamente lo scalamento di un'applicazione lineare, ovvero
Abbiamo che l'insieme delle applicazioni lineari diventa un spazio vettoriale su .

2. Teorema della funzione matrice associata ad applicazione lineare